你或許,甚至大概率遇到過這樣的情況:
當你打開手機中的某一款 App 時,第一眼看到的內容正是你幾分鐘前和朋友或者家人們談論的東西。第一次,你會覺得很驚訝。但時間久了,你就會覺得習以為常、見怪不怪了。
而其中作祟的元兇之一,就是如今已無處不在且時刻“偷聽”你的麥克風(Microphones),它們被嵌入手機、電視、手表等設備中,實時將你的聲音傳輸到神經網絡和人工智能系統中,幫助推薦系統為你作出“定制化”的推送服務。
那么,如何才能避免這樣的情況發生呢?網絡上有很多方法,比如放一首完全不相關的歌曲,將聲音調到最大,主動制造一些噪音;比如不授權長期開啟麥克風權限,而是選擇采取一次一授權的方式等。
如今,來自美國哥倫比亞大學的研究團隊提出了一種新方法:他們研發了一種人工智能系統,只需要在房間內播放一種該系統產生的極為輕微的聲音,就可以避免“監聽”事件的發生。
也就是說,這一系統會把人們交談的聲音進行偽裝,在不影響正常對話的前提下,不被麥克風等監聽系統聽到。
相關研究論文以“Real-Time Neural Voice Camouflage”為題,已發表在預印本網站 arXiv 上。
而且,研究人員還表示,這種人工智能系統很容易部署在電腦、手機等硬件上,可以時時保護你的隱私。
用 AI 擊敗 AI
由人工智能利用的問題,要由人工智能來解決。
雖然該團隊干擾麥克風等系統的成果理論上在人工智能領域是可行的,但要以足夠快的速度將其用于實際應用,仍然是一個艱難的挑戰。
問題在于,在某個特定時刻干擾麥克風監聽人們談話的聲音,或許并不能干擾接下來幾秒的談話。當人們說話時,他們的聲音會隨著他們說出的不同單詞和語速而不斷變化,這些變化使得機器幾乎不可能跟上人說話的快節奏。
而在此次研究中,人工智能算法能夠通過預測一個人接下來要說的話的特點,有足夠的時間來產生合適的耳語(whisper)。
哥倫比亞大學計算機科學系助理教授 Carl Vondrick 表示,這一算法能夠以 80% 的效率阻止流氓麥克風聽清(人們的)對話,甚至在人們對流氓麥克風的位置等信息毫無察覺的情況下,也能發揮作用。
為此,研究人員需要設計一種可以實時破壞神經網絡的算法,這種算法可以在說話時連續生成,并適用于一種語言的大部分詞匯。在以往的研究中,沒有一項工作可以同時滿足以上三個要求。
新算法使用了一種稱之為“預測攻擊”(predictive attacks)的信號,這種信號可以干擾任何被自動語音識別模型訓練來轉錄的單詞。此外,當攻擊聲音在空中播放時,它們需要足夠大的音量來干擾任何可能在遠處的流氓“竊聽”麥克風。攻擊聲音需要像聲音一樣傳播相同的距離。
該人工智能系統通過預測未來對信號或單詞的攻擊,以兩秒鐘的輸入語音為條件,實現了實時性能。
同時,研究團隊還對攻擊進行了優化,使其音量類似于正常的背景噪音,讓人們在房間內可以自然地交談,而不會被麥克風等系統監控。
此外,他們成功證明了這一方法在有自然環境噪聲和復雜形狀的真實房間中的有效性。
但 Vondrick 也表示,目前該系統還只是對大多數英語單詞有效,他們正在將該算法應用到更多語言中。
我們能為 ethical AI 做些什么?
有人說,在大數據時代,我們的個人信息都處于“裸奔”的狀態,身邊也有越來越多的智能設備在偷窺著我們的個人隱私。
如果這一研究成果在未來能夠應用于更多語言,在更多場景內落地,或許能夠幫助我們免受各式各樣人工智能的利用。
正如賓夕法尼亞大學(University of Pennsylvania)計算機與信息科學系教授 Jianbo Shi 評價道:他們提出了一個新問題,即如何使用人工智能保護我們免受無意識的人工智能所利用?
同時,Shi 也建議道,在未來的工作中,研究人員需要從最初的設計階段就“有意識地”思考人工智能會對人類和社會產生的影響,不要再問有道德的人工智能(ethical AI)可以為我們做些什么,而是要問我們能為 ethical AI 做些什么?
一旦我們相信這個方向,ethical AI 的相關研究就會充滿趣味和創意。